V2EX  ›  英汉词典

Subgradient Method

释义 Definition

次梯度法:一种用于不可微凸优化问题的迭代算法。当目标函数在某些点不可导时,用“次梯度(subgradient)”替代普通梯度来更新参数,从而逐步逼近最优解。(也常用于带有非光滑正则项的机器学习训练,如 L1 正则。)

发音 Pronunciation (IPA)

/ˌsʌbˈɡreɪdiənt ˈmɛθəd/

例句 Examples

The subgradient method can optimize convex functions even when they are not differentiable.
次梯度法即使在函数不可导的情况下,也能优化凸函数。

In large-scale machine learning, the subgradient method is often used to minimize an objective with an L1 penalty, though it may converge more slowly than gradient-based methods on smooth problems.
在大规模机器学习中,次梯度法常用于最小化带 L1 惩罚项的目标函数,不过在光滑问题上它的收敛速度可能比基于梯度的方法更慢。

词源 Etymology

subgradientsub-(“次、下一级、替代”之意)+ gradient(“梯度”)构成,表示在不可导点用来“替代梯度”的方向信息;method 来自希腊语词根,意为“方法、途径”。合起来就是“使用次梯度的优化方法”。

相关词 Related Words

文学与著作中的用例 Literary Works

  • Dimitri P. Bertsekas — Nonlinear Programming(经典优化教材,讨论非光滑优化与次梯度相关方法)
  • Stephen Boyd & Lieven Vandenberghe — Convex Optimization(凸优化权威教材,介绍次梯度与相关算法思想)
  • Yurii Nesterov — Introductory Lectures on Convex Optimization(讲解一阶方法,包含次梯度/非光滑优化内容)
  • Naum Z. Shor — Minimization Methods for Non-Differentiable Functions(非可微优化领域的重要著作,与次梯度法密切相关)
关于   ·   帮助文档   ·   自助推广系统   ·   博客   ·   API   ·   FAQ   ·   Solana   ·   2069 人在线   最高记录 6679   ·     Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 · 31ms · UTC 13:57 · PVG 21:57 · LAX 05:57 · JFK 08:57
♥ Do have faith in what you're doing.